查看原文
其他

OpenAI:我们在赞助这6个方向,以及招人

金色传说大聪明 赛博禅心
2024-08-23

背景

OpenAI 今天发表了一篇内容《Reimagining secure infrastructure for advanced AI》,翻译过来就是《迎 AI 王师,要箪食哪些壶浆》。讲述了随着 AI 发展,在安全领域,我们急需做好哪些准备工作。


这里插一嘴,安全是个非常重要的领域,但发展的极慢,且伴随大量的悲剧。大家都坐过车,数千年前,人类就有了马车;1885,人类有了汽车。但各种安全装置,则晚得太多,直到 1903 年,夹层玻璃才问世,更到了 1936 年,夹层玻璃才被开始广泛使用在了汽车上。而安全带则1958 年的事了


而这一次,OpenAI 提前做出了反应,希望通过赞助或者投资的方式,更早的介入到 AI 安全,为 AI 的大规模使用做出准备。


本文末,我附上了资金申请链接,和 OpenAI 相关岗位的招募链接。


6 个方向

为了便于理解,我对这六个方向进行了重写和补充。

准确信息参见:https://openai.com/index/reimagining-secure-infrastructure-for-advanced-ai

01 更安全的 AI 计算


想象一下,我们的计算机和手机在处理信息时,需要一个特别的保护盒子,确保没有人能偷看或篡改数据。对于 AI 加速器,比如 GPU,也需要类似的保护。


例如,当一个 GPU 需要用到某些数据时,它会保证这些数据在使用之前是加密的。这意味着,即使有人拿到了这些数据,也无法看懂里面的内容,因为它们是加密的。GPU 也会确保只有允许的设备能解密和使用这些数据。


虽然这种技术非常有前途,但它还很新,需要更多的研究和改进。我们现在需要投资和发展这项技术,以便未来能更好地保护我们的数据。

02更好的安全隔离


为了确保 AI 系统的安全,我们采用了两个重要的策略:网络隔离和用户隔离。网络隔离意味着让 AI 系统可以在不连接外网的情况下独立运行,这类似于让系统在一个没有外部连接的安全环境中工作,从而减少可能的网络攻击和数据泄露的风险。


用户隔离则是确保不同用户之间的数据和操作是分开的,这样即使一个用户的部分受到攻击,也不会影响到其他用户。我们通过技术手段确保每个用户只能访问他们自己的数据,防止任何未授权的访问或数据被窃取。


简单来说,我们通过建立网络和用户之间的“防火墙”,来保护 AI 系统的独立性和数据安全,确保系统能在一个更加安全和可控的环境下运行。这种做法有助于防止外部攻击,并保护每个用户的隐私和数据安全。

03数据中心的安全创新


保护 AI 数据中心的安全至关重要,这样可以确保数据不被未授权的内部人员窃取或破坏。我们使用多种方法保障数据的安全:比如加强监控、严格控制人员进出、以及设置严格的数据销毁程序和双人操作规则。


同时,我们也在寻找和尝试新的保护措施,例如:

  • 供应链核查:确保所有设备和软件都是安全、可靠的。

  • 远程紧急停止开关:如果发现有未授权访问,可以远程清除数据中心的数据,避免数据泄露。

  • 防篡改系统:通过特殊设计,一旦数据设备被篡改,就能立即被发现。

04 AI 的审计合规


AI 开发者在与基础设施供应商合作时,需要确保自己的知识产权安全。因此,涉及 AI 的设备和服务需要按照特定的安全标准进行检查,确保它们是安全的。这些标准包括一些你可能听说过的名字,如 SOC2、ISO/IEC 和 NIST。


随着技术的发展,我们将会引入更多专门为 AI 设计的安全标准,来应对 AI 系统可能遇到的特殊安全问题。这包括由云安全联盟发起的 AI 安全项目等。OpenAI 也参与了这些活动,帮助制定和改进这些安全标准。

05 利用 AI 增强网络安全


世界各地的网络安全人员经常需要快速分析大量数据来识别和应对网络威胁,这个过程不仅复杂而且资源消耗巨大。很多团队因此难以建立有效的网络防护体系。


AI 提供了一个机会,能够增强网络安全性。通过将 AI 集成到日常的安全工作中,可以提高安全工程师的工作效率,并减少他们的工作负担。在 OpenAI,我们利用 AI 模型处理和分析那些通常人力难以应对的大量敏感数据。我们还致力于将 AI 应用于防御性网络安全,支持研究人员和安全团队探索如何利用这些技术保护全球安全。

06

06 增强 AI 的系统韧性


我们需要持续对 AI 进行测试和研究。因为这个领域新兴且迅速发展,我们的安全措施也需要不断更新,以应对新出现的挑战和漏洞。


我们清楚,没有任何系统是完美无缺的,完全的安全也是不存在的。因此,我们必须通过多种安全措施的协同作用,提高系统的整体韧性。如果假设某些措施可能会出现问题,我们就需要通过巧妙的设计,确保整体系统依然安全可靠。例如,我们可以增设备份措施,提高攻击的难度,并加强对攻击的预防和应对能力,从而更好地保护未来的 AI 技术不受越来越多的威胁。


申请地址

有需要的自己申请,没有中间商赚差价

01申请赞助/投资

表格在这:

https://openai.com/form/cybersecurity-grant-program


另:

  • 总额 100 万美金,每个项目,在通过后,可以拿到至少 1万美金,可以是现金,也可以是 API 额度或者其他

  • 明确能落地的项目,将得到优先支持

  • 目前不考虑为攻击性项目提供资金支持

  • 后续可再申请直接投资

02工作机会


Software Engineer, Security / 安全软件工程师 

申请地址:https://openai.com/careers/software-engineer-security-product-and-platform


Security Engineer, Detection & Response / 安全工程师,检测与响应

申请地址:

  • 美国:https://openai.com/careers/security-engineer-detection-and-response-2

  • 英国:https://openai.com/careers/security-engineer-detection-and-response

  • 日本:https://openai.com/careers/security-engineer-detection-and-response-3


Enterprise Security Engineer / 企业安全工程师 

申请地址:https://openai.com/careers/enterprise-security-engineer


Research Program Manager, Security / 安全研究项目经理 

申请地址:https://openai.com/careers/research-program-manager-security


Software Engineer, Privacy / 隐私软件工程师 

申请地址:https://openai.com/careers/software-engineer-privacy


Research Engineer, Privacy / 隐私研究工程师 

申请地址:https://openai.com/careers/research-engineer-privacy


Compliance Program Manager, GRC / 合规项目经理

申请地址:https://openai.com/careers/compliance-program-manager


GRC Compliance Engineer, GRC / 合规工程师

申请地址:https://openai.com/careers/compliance-engineer


继续滑动看下一个
赛博禅心
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存